Jak najgłośniejsze głosy w AI przeszły od „regulowania nas” do „uwalniania nas”

16 maja 2023 r. Sam Altman stawił się przed podkomisją Senackiej Komisji Sądowniczej. Tytuł przesłuchania brzmiał „Nadzór nad sztuczną inteligencją”. Sesja była ucztą miłosną, podczas której zarówno Altman, jak i senatorowie świętowali to, co Altman nazwał „momentem prasy drukarskiej” sztucznej inteligencji — i przyznali, że Stany Zjednoczone potrzebują silnych praw, aby uniknąć jej pułapek. „Uważamy, że interwencja regulacyjna rządów będzie miała kluczowe znaczenie dla złagodzenia ryzyka związanego z coraz potężniejszymi modelami” — powiedział. Ustawodawcy chłonęli każde słowo Altmana, gdy zachwycał się tym, jak mądre prawa mogą pozwolić rozkwitnąć sztucznej inteligencji — ale tylko w ramach ścisłych wytycznych, które zarówno ustawodawcy, jak i twórcy sztucznej inteligencji uznali w tym momencie za kluczowe. Altman przemawiał w imieniu branży, która szeroko podzielała jego postawę. Okrzykiem bojowym było „Regulujcie nas!”
Dwa lata później, 8 maja tego roku, Altman ponownie stanął przed inną grupą senatorów. Senatorowie i Altman nadal śpiewali tę samą melodię, ale jeden z nich wybrał inną playlistę. To przesłuchanie nosiło nazwę „Wygrana w wyścigu AI”. W DC słowo „nadzór” wyszło z łask, a dyskurs AI nie jest wyjątkiem. Zamiast opowiadać się za tym, aby zewnętrzne organy badały modele AI w celu oceny ryzyka lub aby platformy ostrzegały ludzi, gdy wchodzą w interakcję z AI, przewodniczący komisji Ted Cruz argumentował za ścieżką, na której rząd nie tylko będzie napędzał innowacyjność, ale także usuwał bariery, takie jak „nadmierna regulacja”. Altman był na pokładzie. Jego przesłaniem nie było już „reguluj mnie”, ale „inwestuj we mnie”. Powiedział, że nadmierna regulacja — taka jak zasady przyjęte przez Unię Europejską lub jeden projekt ustawy niedawno zawetowany w Kalifornii — byłaby „katastrofalna”. „Potrzebujemy przestrzeni do innowacji i szybkiego działania” — powiedział. Stwierdził, że bariery bezpieczeństwa mogą być konieczne, ale muszą obejmować „rozsądne regulacje, które nas nie spowolnią”.
Co się stało? Po pierwsze, paniczny moment tuż po tym, jak wszyscy wpadli w panikę z powodu ChatGPT, minął i stało się jasne , że Kongres nie zamierza działać szybko w sprawie AI. Ale największym wydarzeniem jest to, że Donald Trump odzyskał Biały Dom i zahamował niuansowany, proregulacyjny ton administracji Bidena. Doktryna Trumpa dotycząca regulacji AI wydaje się podejrzanie bliska doktrynie zwolennika Trumpa Marca Andreessena, który oświadczył w swoim Manifeście Techno Optimist, że regulacja AI jest dosłownie formą morderstwa, ponieważ „każde spowolnienie AI będzie kosztować życie”. Wiceprezydent JD Vance wyraźnie przedstawił te priorytety na międzynarodowym spotkaniu, które odbyło się w Paryżu w lutym tego roku. „Nie jestem tutaj… aby mówić o bezpieczeństwie AI, co było tytułem konferencji kilka lat temu” — powiedział. „Uważamy, że nadmierna regulacja sektora AI może zabić transformacyjną branżę w momencie, gdy zaczyna się rozwijać, i dołożymy wszelkich starań, aby zachęcić do polityki prowzrostowej AI”. Administracja przedstawiła później Plan działań w zakresie sztucznej inteligencji (AI), „mający na celu wzmocnienie pozycji Ameryki jako potęgi w dziedzinie sztucznej inteligencji i zapobieganie temu, aby niepotrzebnie uciążliwe wymagania utrudniały innowacyjność sektora prywatnego”.
W tym ruchu wyłoniło się dwóch wrogów. Pierwszym jest Unia Europejska, która przyjęła reżim regulacyjny , który wymaga przejrzystości i odpowiedzialności od głównych firm AI. Biały Dom gardzi tym podejściem, podobnie jak ci, którzy budują firmy AI w USA.
Ale największym strachem na wróble są Chiny. Perspektywa pokonania USA przez Republikę Ludową w „wyścigu AI” jest tak nie do pomyślenia, że regulacje muszą zostać odłożone na bok lub zrobione z tym, co Altman i Cruz opisali jako „lekkie dotknięcie”. Część tego rozumowania pochodzi z teorii znanej jako „twardy start”, która zakłada, że modele AI mogą osiągnąć punkt krytyczny, w którym błyskawiczne samodoskonalenie uruchamia zawrotny wir superzdolności, znany również jako AGI. „Jeśli dotrzesz tam pierwszy, ty nikczemny człowieku, nie będę w stanie cię dogonić” , mówi były dyrektor generalny Google Eric Schmidt , przy czym „ty” jest konkurentem (Schmidt mówił o statusie Chin jako lidera w dziedzinie oprogramowania typu open source). Schmidt jest jednym z najgłośniejszych głosów ostrzegających przed tą możliwą przyszłością. Ale Biały Dom jest prawdopodobnie mniej zainteresowany Osobliwością niż klasyczną konkurencją ekonomiczną.
Strach przed tym, że Chiny wyprzedzą AI, jest kluczowym czynnikiem obecnej polityki USA, bezpieczeństwo niech idzie w diabły. Partia sprzeciwia się nawet poszczególnym stanom próbującym wypełnić próżnię bezczynności własnymi prawami. Wersja megaustawy o ulgach podatkowych i cięciach Medicaid, która właśnie została uchwalona przez Izbę Reprezentantów, obejmowała obowiązkowe moratorium na wszelkie ustawodawstwo dotyczące AI na szczeblu stanowym przez 10 lat . To jak wieczność pod względem postępu w dziedzinie AI. (Eksperci twierdzą, że to postanowienie nie przetrwa pewnego sprzeciwu w Senacie, ale należy zauważyć, że prawie każdy Republikanin w Izbie Reprezentantów za nim głosował.)
Nic dziwnego, że Trumpworld odrzuciłby regulacje i przyjął szowinistyczną postawę wobec AI. Ale co się stało z pozornie autentycznym apetytem branży na przepisy, które miałyby zapewnić, że produkty AI nie będą szaleć? Skontaktowałem się w tym tygodniu z kilkoma czołowymi firmami AI i wskazano mi opublikowane blogi i transkrypcje przemówień i zeznań publicznych, ale żaden dyrektor nie chciał się wypowiedzieć na ten temat. (Szczerze mówiąc, nie dałem im dużo czasu).
Typowy dla tych materiałów był blog polityki OpenAI. Prosi o „wolność innowacji”, co oznacza, najprawdopodobniej, brak uciążliwych praw; silne kontrole eksportu; i oportunistyczne żądanie „wolności uczenia się”. Jest to eufemistyczne żądanie, aby Kongres zdefiniował własność intelektualną na nowo jako „dozwolony użytek”, aby OpenAI i inne firmy mogły trenować swoje modele za pomocą materiałów chronionych prawem autorskim — bez wynagradzania twórców. Microsoft również prosi o tę bonanzę. (Ujawnienie: jestem w radzie Authors Guild, która pozywa OpenAI i Microsoft za używanie książek chronionych prawem autorskim jako materiałów szkoleniowych. Opinie wyrażone tutaj są moimi własnymi.)
Obóz regulacyjny „light-touch” (lub no-touch) ma do powiedzenia coś bardzo ważnego: nikt nie wie, jak tworzyć prawa, które zapobiegają najgorszym zagrożeniom AI bez spowalniania tempa innowacji. Ale poza unikaniem katastrofalnego ryzyka, istnieje wiele innych obszarów, w których regulacja AI nie wprowadzałaby przeszkód w badaniach. Obejmują one zakaz pewnych rodzajów nadzoru AI, deepfake’ów i dyskryminacji; jasne informowanie ludzi, kiedy wchodzą w interakcje z robotami; i nakazanie wyższych standardów ochrony danych osobowych w systemach AI. (Przyznaję, że oszukiwałem, tworząc tę listę — nie używając ChatGPT, ale odwołując się do rodzajów szkód AI , których Izba Reprezentantów nie pozwoliłaby regulować stanom).
Presja społeczna lub jakiś spektakularny przykład nadużycia może skłonić Kongres do zajęcia się tymi kwestiami AI w pewnym momencie. Ale to, co pozostało mi w pamięci, to zwrot o 180 stopni sprzed dwóch lat, kiedy poważne obawy o katastrofalne ryzyko zdominowały rozmowy w świecie AI. Jaskrawym wyjątkiem jest Anthropic, który wciąż nie odszedł od wpisu na blogu pod koniec października — zaledwie kilka dni przed wyborami prezydenckimi — który nie tylko wzywał do skutecznych regulacji w celu „ograniczenia katastrofalnych ryzyk”, ale w zasadzie proponował koniec czasów, jeśli nie zrobimy tego wkrótce. „Rządy powinny pilnie podjąć działania w zakresie polityki AI w ciągu najbliższych osiemnastu miesięcy” — głosi pogrubiona czcionka. „Okno na proaktywne zapobieganie ryzyku szybko się zamyka”.
W tym środowisku praktycznie nie ma szans, aby Anthropic spełnił swoje życzenie. Może to nie będzie miało znaczenia: obawy przed apokalipsą AI mogą być mocno przesadzone. Należy jednak zauważyć, że liderzy niemal każdej dużej firmy AI przewidują, że za kilka lat zrealizujemy sztuczną inteligencję ogólną. Gdy się ich naciska, przyznają również, że kontrolowanie AI, a nawet zrozumienie, jak działa, jest pracą w toku. Niemniej jednak, nacisk jest teraz położony na przyspieszenie działań na rzecz potężniejszej AI — rzekomo w celu pokonania Chin.
Chińczycy jasno dali do zrozumienia, że nie chcą składać raportów robotom-władcom bardziej niż my. Największy geopolityczny rywal Ameryki również wykazał pewne zainteresowanie narzuceniem surowych standardów bezpieczeństwa. Ale jeśli Stany Zjednoczone będą nalegać na unikanie barier ochronnych i pełną parą zmierzać w kierunku przyszłości, której nie będą w stanie powstrzymać, nasz największy konkurent nie będzie miał innego wyjścia, jak zrobić to samo. Niech wygra najlepszy, twardy start.
wired